Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6500 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Управление хост-сервером VMware ESXi 5.1 через интерфейс vsish и полный список параметров.


В некоторых наших статьях мы уже затрагивали приемы работы с утилитой vsish (VMkernel Sys Info Shell), которая есть в консоли хостов VMware ESXi, и которая предназначена для управления огромным числом обычных и скрытых настроек сервера и ядра VMkernel (то, что раньше управлялось с помощью команды esxcfg-advcfg). Например, мы уже писали про то, как с помощью vsish можно:

Однако, как вы уже догадались, эти три примера не являются исчерпывающими вариантами использования утилиты vsish. Напомним, что работать с ней нужно в следующем формате:

Запускаем утилиту:

~ # vsish

Далее узнаем значение параметра или настройки:

/> get <параметр, путь к файлу>

Устанавливаем новое значение:

/> set <параметр, путь к файлу> <значение>

Можно выполнить команду сразу, с опцией -e. Например:

~ # vsish -e get /power/hardwareSupport 

Большинство параметров утилиты vsish, содержащие путь /config - это расширенные настройки хоста ESXi, которые вы можете редактировать в Advanced Settings через vSphere Client или vSphere Web Client. Вот, например, мы недавно писали о том, как административные привилегии на ESXi назначить пользователю из Active Directory:

Для этой настройки есть соответствующий путь для vsish. Выглядит он так:

/config/HostAgent/plugins/hostsvc/esxAdminsGroup

Однако vsish позволяет редактировать и скрытые настройки ESXi, которые недоступны для изменения через GUI. Полный список настроек vsish для хостов VMware ESXi 4.1 и выше приведен у Вильяма Лама:

Complete vSphere ESXi 4.1 vsish configurations including hidden options - 771 Total

Только скрытые настройки ESXi 4.1 и выше:

Hidden vSphere ESXi 4.1 vsish configurations only - 250 Total

Новые скрытые и обычные настройки в ESXi 5.1:

Complete list of new vsish configurations in ESXi 5.1


Таги: VMware, ESXi, CLI, Blogs

Выпущена утилита VMware ESXi 5 Community Packaging Tools 2.0.


Автор сайта v-front.de выпустил обновленную версию утилит ESXi5 Community Packaging Tools 2.0 (ESXi5-CPT), которые позволяют создавать пакеты для VMware ESXi в форматах VIB (VMware Installation Bundle) and ZIP (VMware Offline Bundle). Для VIB-файлов их статус (acceptance level) будет указан как Community Supported. Об этих утилитах от Andreas Peetz мы уже писали вот тут. Зачастую, эти утилиты необходимы пользователям для включения сторонних драйверов устройств в состав дистрибутива платформы ESXi, которые отсутствуют в стандартном комплекте поставки.

Новые возможности ESXi5 Community Packaging Tools 2.0:

  • Поддержка VMware ESXi 5.1.
  • Обновленный TGZ2VIB5.cmd 2.0:
    • Добавлены новые опции GUI с дополнительными настройками VIB и параметрами установки
    • Добавлено меню для загрузки шаблонов настроек для различных типов пакетов (например, "Hardware driver" или "Firewall rule")
    • Возможность не указывать контрольные суммы в дескрипторном XML-файле
  • Утилита VIB2ZIP не изменялась.

Скачать ESXi5 Community Packaging Tools 2.0 можно по этой ссылке.

Также, напомним, что на сайте проекта VMware Labs есть еще одно средство для создания VIB-пакетов для VMware ESXi, но работающее только в командной строке и под Linux - VIB Author.

Одна из дополнительных опций VIB Author - это возможность задания электронной подписи к VIB-файлу, однако это не требуется для пакетов уровня Community Supported. Кроме того, VIB Author позволяет редактировать далеко не все директории, поэтому ESXi5-CPT - наш выбор.


Таги: VMware, ESXi, Hardware, Бесплатно, Blogs, Labs

Рекомендации по защите инфраструктуры виртуальных десктопов, созданных на базе платформы VMware View.


Данная статья посвящена аспектам защиты инфраструктуры виртуальных десктопов, построенной на базе программного обеспечения VMware View. На текущий момент у VMware отсутствуют рекомендации по обеспечению защиты инфраструктуры VMware View наподобие Hardening Guide для VMware vSphere. Точнее сказать они есть, но разрозненны и находятся в различных документах. В части 1 статьи попытаемся рассмотреть рекомендации, которые могут предъявляться к сетевой архитектуре инфраструктуры виртуальных ПК.


Таги: VMware, View, Security, Enterprise, Blogs

О вложенных виртуальных машинах (Nested VMs) в VMware vSphere 5.1 - отличия от предыдущих версий.


Как мы уже писали, в VMware vSphere 5.1 появилось множество новых возможностей, в том числе улучшения, касающиеся аппаратной виртуализации (Hardware Virtualization), которая позволяет запускать вложенные гипервизоры (Hyper-V и ESXi) и виртуальные машины в них. Про то, как это работает в VMware vSphere 5.0, мы уже детально писали вот тут.

В интерфейсе веб-клиента VMware vSphere 5.1 поддержка аппаратной виртуализации включается в настройках виртуальной машины:

Настройки, которые были действительны для ESXi 5.0 - теперь не работают. Все теперь включается только через эту галочку.

Напомним, что в ESXi 5.0 можно было запускать вложенные (Nested) 32-битные и 64-битные виртуальные машины в гипервизорах, которые сами работают в виртуальных машинах. При этом требовалось только наличие поддержки аппаратной виртуализации в процессорах - Intel VT или AMD-V. Если же в вашем процессоре не было поддержки Intel EPT или AMD RVI, то вложенные 64-битные машины работали очень и очень медленно.

Поэтому VMware в vSphere 5.1 решила изменить концепцию, сделав так:

  • Если в процессоре есть поддержка Intel VT или AMD-V без EPT/RVI, то вы сможете устанавливать ESXi 5.1 в виртуальной машине, а также использовать вложенные 32-битные виртуальные машины. При этом 64-битные работать не будут, а опция "Hardware Virtualization" в vSphere Web Client будет загреена. Во время установки ESXi в виртуальной машине вы увидите сообщение "No Hardware Virtualization Support", которое можно просто игнорировать.
  • Если в процессоре есть поддержка аппаратной виртуализации и EPT/RVI, то можно использовать вложенные 64-битные ВМ.

Проверить свой хост-сервер на наличие поддержки технологий аппаратной виртуализации можно на соответствующих ресурсах вендоров (например, ark.intel.com). Есть и способ попроще - для этого надо использовать Managed Object Browser. Зайдите на хост ESXi по адресу:

https://<имя ESXi>/mob/?moid=ha-host&doPath=capability

Там будет такое свойство nestedHVSupported, которое будет установлено в True, если процессор поддерживает полный набор техник аппаратной виртуализации, который необходим для запуска вложенных 64-битных виртуальных машин на виртуальном ESXi 5.1.


Таги: VMware, vSphere, ESXi, Hardware, Intel, AMD, VMachines, Nested, Blogs

CloudPhysics - карточки с информацией о виртуальной инфаструктуре VMware vSphere.


Достаточно давно, известный многим Duncan Epping писал о стартапе CloudPhysics, для которого он является техническим эдвайзором, и который выпускает продукт в виде виртуального модуля (Observer Virtual Appliance), систематизирующий информацию о количественных параметрах виртуальной среды VMware vSphere в виде карточек. На основе этих карточек можно составить заключение о существующих проблемах своей инфраструктуры виртуализации:

Для работы продукта потребуется установить OVA-модуль в своем окружении VMware vSphere, а дальше для просмотра параметров карточек можно использовать веб-консоль (для кого-то это может быть проблемой, так как данные посылаются на сервер CloudPhysics, однако они утверждают, что данные полностью обезличены).

Сами карточки формируются на базе опросов пользователей и всяческих голосований, которые проводятся, например, на конференциях VMworld. Вот примеры таких карточек:

Затем лучшие карточки, будучи реализованными технически, попадают в основной интерфейс продукта (при этом для появления новых карточек не обязательно обновлять виртуальный модуль в своей инсталляции).

Помимо этого есть всякие технические детали о виртуальной инфраструктуре, корелляции параметров и необычные метрики. В общем, для больших инсталляций в плане траблшутинга - штука интересная, попробуйте, это пока бесплатно.


Таги: VMware, vSphere, Performance, Enterprise, Blogs, Cloud, Virtual Appliance

VMware Storage DRS - задание допустимого уровня over-commitment для хранилища при миграции ВМ на тонких дисках.


Frank Denneman опять написал интересную статью. Оказывается у механизма VMware Storage DRS, который производит балансировку виртуальных машин по хранилищам кластера SDRS, есть механизм задания допустимого уровня over-commitment для хранилища при миграции ВМ на тонких дисках.

Как вы знаете, у тонких VMDK-дисков (Thin Disks) виртуальных машин есть 2 параметра:

  • Provisioned Space - максимальный размер VMDK-файла, до которого может вырости диск виртуальной машины.
  • Allocated Space - текущий размер растущего VMDK-диска.

Разность этих двух парметров есть значение IdleMB, отражающее объем, на который виртуальный диск еще может вырасти. В расширенных настройках Storage DRS можно задать параметр PercentIdleMBinSpaceDemand, который определяет, сколько процентов от IdleMB механизм SDRS прибавляет к Allocated Space при выдаче и применении рекомендаций по размещению виртуальных машин на хранилищах кластера.

Рассмотрим на примере. Пусть максимальный размер диска VMDK составляет 6 ГБ при Allocated Space в 2 ГБ. Допустим мы задали PercentIdleMBinSpaceDemand = 25%. Тогда мы получим такую картину:

Таким образом, при размещении виртуальной машины на хранилище механизм Storage DRS будет считать, что ВМ занимает не 2 ГБ дискового пространства, а 2+0.25*4 = 3 ГБ. Ну и увидев такую машину на 10 ГБ-хранилище, механизм SDRS, при расчете выравнивания хранилищ по заполненности, будет считать что она занимает 3 ГБ, и свободно осталось лишь 7 ГБ.

Регулируя эту настройку можно добиться различных коэффициентов консолидации тонких VMDK-дисков машин на хранилищах. Ну и очевидно, что значение параметра PercentIdleMBinSpaceDemand равное 100% приведет к тому, что тонкие диски при размещении будут учитываться как их обычные flat-собратья.


Таги: VMware, Storage, SDRS, DRS, vSphere, ESXi, Blogs, VMDK

VMware WSX Server в VMware Workstation 2012 - июльское обновление.


В конце июня мы писали про технологическое превью продукта VMware Workstation 2012 (плюс тут), в котором появилось новое средство WSX Server - возможность прямого доступа к консоли виртуальной машины из браузера без каких-либо плагинов.

Напомним, что WSX Server, который есть в VMware Workstation 2012, работает на базе технологии HTML 5 (с поддержкой WebSockets и Canvas), что подразумевает отсутствие необходимости иметь какие-либо дополнительные компоненты, кроме веб-браузера, чтобы получить доступ к консоли виртуальной машины и средствами управления ей. В качестве веб-браузеров, той или иной степени совместимых с HTML 5, можно использовать Chrome 17, Firefox 10, IE 10, Safari 5 на ПК с Mac OS и iOS 5 для iPad. Также стоит отметить, что VMware WSX поддерживает новые iPad с дисплеем Retina.

Итак, основные июльские нововведения технологии WSX:

  • Улучшенная домашняя страница - теперь на ней есть возможность добавлять серверы в список, также на нее будет возможность добавить часто используемые ВМ

  • Улучшенная страница при выборе сервера WSX - теперь виртуальные машины можно фильтровать по состоянию (powered on и т.п.), а также есть поиск

  • Большая кнопка "Включить ВМ" - удобна для iPad'ов:

  • Улучшенный Touch Input - для планшетов и смартфонов поддерживаются жесты, которыми можно эмулировать не только правую кнопку мыши (нажать и подержать пальцем), но и среднюю. Если держать одновременно двумя пальцами и тащить вниз или вверх - будет скроллинг.
  • Поддержка колесика мыши - работает в браузерах на PC и Mac.
  • Улучшен механизм работы с дисплеями Retina - теперь WSX не вываливается в пониженное разрешение при повторном соединении после обрыва. Дорисованы новые иконки и пофикшены баги.
  • Поддержка шифрованного SSL-соединения. Теперь можно назвать сертификаты именами wsx.crt и wsx.key и положить их в папки etc/vmware/wsx/ssl/directory (Linux) или Application Data\VMware\VMware WSX\SSL (Windows). Этого не сделано по умолчанию, так как SSL глючит с WebSockets.
  • Упрощенная установка - для Linux, например, больше не требуется Python. Для Windows улучшили стабильность.
  • Улучшенное обнаружение общих виртуальных машин (Shared VMs).
  • Улучшения производительности - при соединении и изменении разрешения.
  • Множественные исправления ошибок.

Напомним, что функции WSX работают, по-прежнему, в экспериментальном режиме.

Более подробно о VMware Workstation 2012 TP June можно прочитать на странице ведущего разработчика, а также на официальной странице обновленного продукта. Скачать VMware Workstation 2012 TP June вместе с компонентами WSX можно по этой ссылке.


Таги: VMware, Workstation, Update, Beta, WSX, VMachines, Blogs

Уровни очередей (Queues) при работе виртуальных машин с хранилищами VMware vSphere.


Мы уже не раз писали о различных типах очередей ввода-вывода, присутствующих на различных уровнях в VMware vSphere, в частности, в статье "Глубина очереди (Queue Depth) и адаптивный алгоритм управления очередью в VMware vSphere". Недавно на блогах компании VMware появился хороший пост, упорядочивающий знания об очередях ввода-вывода на различных уровнях виртуальной инфраструктуры.

Если речь идет о виртуальных машинах на сервере VMware ESXi, работающих с дисковым массивом, можно выделить 5 видов очередей:

  • GQLEN (Guest Queue) - этот вид очередей включает в себя различные очереди, существующие на уровне гостевой ОС. К нему можно отнести очереди конкретного приложения, очереди драйверов дисковых устройств в гостевой ОС и т.п.
  • WQLEN (World Queue/ Per VM Queue) - это очередь, существующая для экземпляра виртуальной машины (с соответствующим World ID), которая ограничивает единовременное число операций ввода-вывода (IOs), передаваемое ей.
  • AQLEN (Adapter Queue) - очередь, ограничивающая одновременное количество обрабатываемых на одном HBA-адаптере хоста ESXi команд ввода вывода.
  • DQLEN (Device Queue / Per LUN Queue) - это очередь, ограничивающая максимальное количество операций ввода-вывода от хоста ESXi к одному LUN (Datastore).
  • SQLEN (Storage Array Queue) - очередь порта дискового массива (Storage Processor, SP)

Эти очереди можно выстроить в иерархию, которая отражает, на каком уровне они вступают в действие:

Очереди GQLEN бывают разные и не относятся к стеку виртуализации VMware ESXi, поэтому мы рассматривать их не будем. Очереди SQLEN мы уже частично касались тут и тут. Если до SP дискового массива со стороны сервера ESX / ESXi используется один активный путь, то глубина очереди целевого порта массива (SQLEN) должна удовлетворять следующему соотношению:

SQLEN>= Q*L

где Q - это глубина очереди на HBA-адаптере, а L - число LUN, обслуживаемых SP системы хранения. Если у нас несколько активных путей к одному SP правую часть неравенства надо еще домножить на P - число путей.

Соответственно, в виртуальной инфраструктуре VMware vSphere у нас несколько хостов имеют доступ к одному LUN через его SP и получается следующее соотношение:

SQLEN>= ESX1 (Q*L*P) + ESX2 (Q*L*P)+ и т.д.

Теперь рассмотрим 3 оставшиеся типа очередей, которые имеют непосредственное отношение к хосту VMware ESXi:

Как мы видим из картинки - очереди на различных уровнях ограничивают число I/O, которые могут быть одновременно обработаны на различных сущностях:

  • Длина очереди WQLEN по умолчанию ограничена значением 32, что не позволяет виртуальной машине выполнять более 32-х I/O одновременно.
  • Длина очереди AQLEN - ограничена значением 1024, чтобы собирать в себя I/O от всех виртуальных машин хоста.
  • Длина очереди DQLEN - ограничена значением 30 или 32, что не позволяет "выедать" одному хосту ESXi с одного хранилища (LUN) более 30-ти или 32-х операций ввода-вывода

Все эти очереди можно посмотреть с помощью esxtop:

Зачем вообще нужны очереди? Очень просто - очередь это естественный способ ограничить использование общего ресурса. То есть одна виртуальная машина не заполонит своими командами ввода-вывода весь HBA-адаптер, а один хост ESXi не съест всю производительность у одного Datastore (LUN), так как ограничен всего 32-мя I/O к нему.

Мы уже писали о функционале Storage I/O Control (SIOC), который позволяет регулировать последний тип очереди, а именно DQLEN, что позволяет корректно распределить нагрузку на СХД между сервисами в виртуальных машинах в соответствии с их параметрами shares (эта функциональность есть только в издании vSphere Enterprise Plus). Механизм Storage IO Control для хостов VMware ESX включается при превышении порога latency для тома VMFS, определяемого пользователем. Однако, стоит помнить, что механизм SIOC действует лишь в пределах максимально определенного значения очереди, то есть по умолчанию не может выйти за пределы 32 IO на LUN от одного хоста.

Для большинства случаев этого достаточно, однако иногда требуется изменить обозначенные выше длины очередей, чтобы удовлетворить требования задач в ВМ, которые генерируют большую нагрузку на подсистему ввода-вывода. Делается это следующими способами:

1. Настройка длины очереди WQLEN.

Значение по умолчанию - 32. Его задание описано в статье KB 1268. В Advanced Settings хоста ESXi нужно определить следующий параметр:

Disk.SchedNumReqOutstanding (DSNRO)

Он глобально определяет, сколько операций ввода-вывода (IOs) может максимально выдать одна виртуальная машина на LUN одновременно. В то же время, он задает это максимальное значение в IOs для всех виртуальных машин на этот LUN от хоста ESXi (это глобальная для него настройка). То есть, если задано значение 32, то все машины могут одновременно выжать 32 IOs, это подтверждается в случае, где 3 машины генерируют по 32 одновременных IO к одному LUN, а реально к LUN идут все те же 32, а не 3*32.

2. Настройка длины очереди AQLEN.

Как правило, этот параметр менять не требуется, потому что дефолтного значения 1024 хватает практически для всех ситуаций. Где его менять, я не знаю, поэтому если знаете вы - можете написать об этом в комментариях.

3. Настройка длины очереди DQLEN.

Настройка этого параметра описана в KB 1267 (мы тоже про это писали) - она зависит от модели и драйвера HBA-адаптера (в KB информация актуальна на июнь 2010 года). Она взаимосвязана с настройкой Disk.SchedNumReqOutstanding и, согласно рекомендациям VMware, должна быть эквивалентна ей. Если эти значения различаются, то когда несколько ВМ используют с хоста ESXi один LUN - актуальной длиной очереди считается минимальное из этих значений.

Для отслеживания текущих значений очередей можно использовать утилиту esxtop, как описано в KB 1027901.


Таги: VMware, ESXi, Storage, vSphere, Blogs, Enterprise, HBA, VMachines

Еще немного полезного графического материала по VMware vSphere 5: Visio Stencils и иконки.


Мы уже писали недавно об обновленном сборнике иконок, рисунков и диаграмм для документирования инфраструктуры VMware vSphere, который содержит в себе все необходимое для презентаций и документирования проектов по виртуализации. Напомним:

Недавно один добрый человек перевел это все в формат Microsoft Visio:

Еще один выложил полезные иконки, которых мало, но они могут пригодиться:

И он же сделал интересный плагин для Wordpress, показывающий параметры виртуальной инфраструктуры в блоге. Может тоже кому пригодится:

Что-нибудь еще полезное по этой теме подскажете?


Таги: VMware, vSphere, Visio, Graphics, ESXi, vCenter, Blogs

Настройка времени неактивности VMware vSphere Client.


Иногда в целях безопасности необходимо настроить время, по прошествии которого если клиент vSphere Client не используется, требуется прервать сессию работы с VMware vCenter. Как подсказывает нам William Lam, сделать это можно двумя способами:

  • Заданием аргумента при запуске исполняемого файла VpxClient.exe (vSphere Client)
  • В конфигурационном файле VpxClient.exe.config на рабочей станции, где установлен vSphere Client

В первом случае мы задаем параметр inactivityTimeout в свойствах ярлыка vSphere Client, где устанавливаем время в минутах, после которого при неактивности клиента будет показан диалог о необходимости повторного логина:

Во втором случае нужно найти файл VpxClient.exe.config, который находится в следующих местах в зависимости от версии ОС:

  • 32bit - %PROGRAMFILES%\VMware\Infrastructure\Virtual Infrastructure Client\Launcher
  • 64bit - %PROGRAMFILES(x86)%\VMware\Infrastructure\Virtual Infrastructure Client\Launcher

Открываем этот XML-файл и прямо перед окончанием секции cmdlineFallback добавляем следующую секцию:

<inactivityTimeout>X</inactivityTimeout>

Если вы задали значение 1, то после неактивности в течение 1 минуты, будет показано следующее сообщение:

Также Вильям указывает на еще 2 интересных параметра, которые могут быть заданы как на уровне аргументов исполняемого файла клиента, так и в VpxClient.exe.config:

  • -expAll либо добавление секции <expAll /> - при открытии vSphere Client ваше Inventory хостов и виртуальных машин будет полностью раскрыто
  • -noPlugins либо добавление секции <noPlugins /> - при запуске клиента все плагины будут отключены

Таги: VMware, vSphere, Client, ESXi, Blogs, Security

Как работает новый VMware HA (FDM) в VMware vSphere 5 - диаграммы.


Мы уже писали о новом механизме высокой доступности VMware High Availability (HA), который появился в VMware vSphere 5 и работает на базе агентов Fault Domain Manager (FDM). Как известно, вместо primary/secondary узлов в новом HA появились роли узлов - Master (один хост кластера, отслеживает сбои и управляет восстановлением) и Slave (все остальные узлы, подчиняющиеся мастеру и выполняющие его указания в случае сбоя, а также участвующие в выборе нового мастера в случае отказа основного).

В нашей статье об HA было описано основное поведение хостов VMware ESXi и кластера HA в случае различных видов сбоев, но Iwan Rahabok сделал для этих процессов прекрасные блок-схемы, по которым понятно, как все происходит.

Если хост ESXi (Slave) не получил хартбита от Master, которые он ожидает каджую секунду, то он может либо принять участие в выборах, либо сам себя назначить мастером в случае изоляции (кликабельно):

Если хост ESXi (Master) получает heartbeat хотя бы от одного из своих Slave'ов, то он не считает себя изолированным, ну а если не получает от всех, то он изолирован и выполняет Isolation Responce в случае, если нет пинга до шлюза. Работающим в разделенном сегменте сети он себя считает, когда он может пинговать шлюз. Проверка живости хостов (Slaves) производится не только по хартбитам, но и по datastore-хартбитам (кликабельно):

Все просто и понятно. Иван молодец.


Таги: VMware, vSphere, HA, Blogs, ESXi, Обучение

Максимальное количество операций vMotion и Storage vMotion на одном хранилище VMware vSphere.


На сайте Фрэнка Деннемана появилась отличная статья про механизмы "горячей" миграции хранилищ (Storage vMotion) и "горячей" миграции виртуальных машин (vMotion) в контексте их использования для одного хранилища (Datastore) или хоста ESXi в VMware vSphere. Мы просто не можем не перевести ее, так как она представляет большой интерес для понимания работы этих механизмов.

Начнем со Storage vMotion. Данная операция, очевидно, требует большой нагрузки как на хранилище, откуда и куда, переносятся виртуальные машины, так и на сам хост-сервер VMware ESXi. Особенно актуально это, когда хост или хранилище переходят в Maintenance Mode, и виртуальные машины массово начинают миграцию. В случае со Storage vMotion это создает колоссальную нагрузку на хранилище по вводу-выводу.

Для понимания затрат ресурсов на эти процессы Фрэнк вводит понятие "цены" (cost) начинающейся операции, которая не может превосходить количество доступных слотов на хосте или хранилище, выделенных под них. Наглядно это можно представить так:

Resource Max Cost - это максимальный объем в неких единицах (назовем их слотами), который находится в рамках пула доступных ресурсов для операции Storage vMotion. Для хоста ESXi емкость такого пула составляет 8 слотов, а цена операции Storage vMotion - 4 слота. Таким образом, на одном хосте ESXi могут одновременно выполняться не более 2-х операций Storage vMotion. Если выполняется одна операция - то занято 4 слота и 4 слота свободно (как для исходного, так и для целевого хранилища).

С хранилищем точно такая же система - но у него 128 слотов. Одна операция Storage vMotion для Datastore потребляет 16 слотов. Таким образом, на одном хранилище может выполняться 8 (128 / 16) одновременных операций Storage vMotion. Их могут инициировать, например, 4 хоста (по 2 операции максимально каждый). То есть, мы получаем следующую схему:

Все просто и понятно. Отметим здесь, что операция vMotion тоже потребляет ресурсы с Datastore - но всего 1 слот. Таким образом, на одном Datastore могут, например, выполняться 7 одновременных миграций Storage vMotion (7 * 16 = 112 слотов) и еще 16 миграций vMotion (112+16 = 128), задействующих ВМ этого Datastore.

Если вы не хотите, чтобы при переводе Datastore в Maintenance Mode на нем возникало сразу 8 одновременных миграций Storage vMotion и, как следствие, большой нагрузки, вы можете уменьшить пул слотов для хранилищ (для всех, а не для какого-то конкретно). Для этого нужно отредактировать конфигурационный файл vpxd.cfg на сервере VMware vCenter, который находится в папке:

%ALLUSERPROFILE%\Application Data\VMware\VMware VirtualCenter\

Там нужно вписать новое значение в следующую секцию, где "new value":

< config >
< vpxd >
< ResourceManager >
< MaxCostPerEsx41DS > new value < /MaxCostPerEsx41DS >
< /ResourceManager >
< /vpxd >
< /config >

Вбив значение 112, вы уменьшите максимальное число одновременных миграций Storage vMotion на Datastore до 7. На хосте ESXi менять размер пула слотов для Storage vMotion не рекомендуется (хотя такие секции можно добавить - это пробовали энтузиасты).

Про стоимость миграций vMotion для хостов ESX / ESXi 4.1 мы уже писали вот тут. На эту тему есть также статья KB 2001417. С тех пор в vMotion много чего изменилось, поэтому подтвердить актуальность для vSphere 5 пока не могу. Буду признателен, если вы напишете об этом в комментариях.


Таги: VMware, Storage vMotion, SVMotion, vMotion, Storage, ESXi, vCenter, Performance, Blogs

Производительность дисковых устройств и сайзинг нагрузок на хранилища VMware vSphere.


Мы уже недавно писали о метриках производительности хранилищ в среде VMware vSphere, которые можно получить с помощью команды esxtop. Сегодня мы продолжим развивать эту тему и поговорим об общей производительности дисковых устройств и сайзинге нагрузок виртуальных машин по хранилищам в виртуальной среде.

Как говорит нам вторая статья блога VMware о хранилищах, есть несколько причин, по которым может падать производительность подсистемы ввода-вывода виртуальных машин:

  • Неправильный сайзинг хранилищ для задач ВМ, вследствие чего хранилища не выдерживают такого количества операций, и все начинает тормозить. Это самый частый случай.
  • Перегрузка очереди ввода-вывода со стороны хост-сервера.
  • Достижение предела полосы пропускания между хостом и хранилищем.
  • Высокая загрузка CPU хост-сервера.
  • Проблемы с драйверами хранилищ на уровне гостевой ОС.
  • Некорректно настроенные приложения.

Из всего этого набора причин самой актуальной оказывается, как правило, первая. Это происходит вследствие того, что администраторы очень часто делают сайзинг хранилищ для задач в ВМ, учитывая их требования только к занимаемому пространству, но не учитывая реальных требований систем к вводу выводу. Это верно в Enterprise-среде, когда у вас есть хранилища вроде HDS VSP с практически "несъедаемой" производительностью, но неверно для Low и Midrange массивов в небольших организациях.

Поэтому профилирование нагрузки по хранилищам - одна из основных задач администраторов VMware vSphere. Здесь VMware предлагает описывать модель нагрузки прикладной системы следующими параметрами:

  • Размер запроса ввода-вывода (I/O Size)
  • Процент обращений на чтение (Read)
  • Процент случайных обращений (Random)

Таким образом профиль приложения для "типичной" нагрузки может выглядеть наподобие:

8KB I/O size, 80% Random, 80% Read

Само собой, для каждого приложения типа Exchange или СУБД может быть свой профиль нагрузки, отличающийся от типичного. Размер запроса ввода-вывода (I/O Size) также зависит от специфики приложения, и о том, как регулировать его максимальное значение на уровне гипервизора ESXi, рассказано в KB 1008205. Нужно просто в Advanced Settings выставить значение Disk.DiskMaxIOSize (значение в килобайтах). Некоторые массивы испытывают проблемы с производительностью, когда размер запроса ввода-вывода очень велик, поэтому здесь нужно обратиться к документации производителя массива. Если с помощью указанной настройки ограничить размер запроса ввода-вывода, то они будут разбиваться на маленькие подзапросы, что может привести к увеличению производительности подсистемы ввода-вывода на некоторых системах хранения. По умолчанию установлено максимальное значение в 32 МБ, что является достаточно большим (некоторые массивы начинают испытывать проблемы при запросах более 128 KB, 256 KB или 512KB, в зависимости от модели и конфигурации).

Однако вернемся к профилированию нагрузок по хранилищам в VMware vSphere. В одной из презентаций VMware есть замечательная картинка, отражающая численные характеристики производительности дисковых устройств в пересчете на шпиндель в зависимости от типа их организации в RAID-массивы:

Параметры в верхней части приведены для операций 100%-й последовательной записи для дисков на 15К оборотов. А в нижней части приведены параметры производительности для описанной выше "типичной" нагрузки, включая среднюю скорость чтения-записи, число операций ввода-вывода в секунду (IOPS) и среднюю задержку. Хорошая напоминалка, между прочим.

Теперь как анализировать нагрузку по вводу выводу. Для этого у VMware на сайте проекта VMware Labs есть специальная утилита I/O Analyzer, про которую мы уже писали вот тут. Она может многое из того, что потребуется для профилирования нагрузок по хранилищам.

Ну а дальше стандартные процедуры - балансировка нагрузки по путям, сторадж-процессорам (SP) и дисковым устройствам. Сигналом к изысканиям должен послужить счетчик Device Latency (DAVG) в esxtop, если его значение превышает 20-30 мс для виртуальной машины.


Таги: VMware, vSphere, Storage, Performance, ESXi, Blogs, Enterprise

Счетчики esxtop в VMware vSphere 5, касающиеся хранилищ - наглядно.


Мы уже писали об основных приемах по решению проблем на хостах VMware ESX / ESXi с помощью утилиты esxtop, позволяющей отслеживать все аспекты производительности серверов и виртуальных машин. Через интерфейс RCLI можно удаленно получать эти же данные с помощью команды resxtop.

Сегодня мы приведем простое объяснение иерархии счетчиков esxtop, касающихся хранилищ серверов VMware vSphere. Для того, чтобы взглянуть на основные счетчики esxtop для хранилищ, нужно запустить утилиту и нажать кнопку <d> для перехода в режим отслеживания показателей конкретных виртуальных машин (кликабельно). Данные значения будут представлены в миллисекундах (ms):

Если мы посмотрим на колонки, которые выделены красным прямоугольником, то в виде иерархии их структуру можно представить следующим образом:

Распишем их назначение:

  • GAVG (Guest Average Latency) - общая задержка при выполнении SCSI-команд от гостевой ОС до хранилища сквозь все уровни работы машины с блоками данных. Это, само собой, самое большое значение, равное KAVG+DAVG.
  • KAVG (Kernel Average Latency) - это задержка, возникающая в стеке vSphere для работы с хранилищами (гипервизор, модули для работы SCSI). Это обычно небольшое значение, т.к. ESXi имеет множество оптимизаций в этих компонентах для скорейшего прохождения команд ввода-вывода сквозь них.
  • QAVG (Queue Average latency) - время, проведенное SCSI-командой в очереди на уровне стека работы с хранилищами, до передачи этой команды HBA-адаптеру.
  • DAVG (Device Average Latency) - задержка прохождения команд от HBA адаптера до физических блоков данных на дисковых устройствах.

В блоге VMware, где разобраны эти показатели, приведены параметры для типичной нагрузки по вводу-выводу (8k I/O size, 80% Random, 80% Read). Для такой нагрузки показатель Latency (GAVG) 20-30 миллисекунд и более может свидетельствовать о наличии проблем с производительностью подсистемы хранения на каком-то из подуровней.

Как мы уже отметили, показатель KAVG, в идеале, должен быть равен 0 или исчисляться сотыми долями миллисекунды. Если он стабильно находится в пределах 2-3 мс или больше - тут уже можно подозревать проблемы. В этом случае нужно проверить значение столбца QUED для ВМ - если оно достигло 1 (очередь использована), то, возможно, выставлена слишком маленькая величина очереди на HBA-адаптере, и необходимо ее увеличить.

Для просмотра очереди на HBA-адаптере нужно переключиться в представление HBA кнопкой <u>:

Ну и если у вас наблюдается большое значение DAVG, то дело, скорее всего, не в хосте ESX, а в SAN-фабрике или дисковом массиве, на уровне которых возникают большие задержки.


Таги: VMware, vSphere, esxtop, Storage, ESXi, Performance, Blogs

Обновился VDI Flash Calculator до версии 2.8 - поддержка VMware View 5.1.


Вы уже, наверняка, читали про новые возможности VMware View 5.1, а на днях обновился калькулятор VDI Flash Calculator до версии 2.8, предназначенный для расчета вычислительных мощностей и хранилищ, поддерживающий новые функции платформы виртуализации настольных ПК.

Среди новых возможностей калькулятора VDI:

  • Поддержка VMware View 5.1
  • Поддержка функции VMware View CBRC для системного диска (Content Based Read Cache) - предполагается уменьшение интенсивности ввода-вывода на чтение на 65%
  • Поддержка связанных клонов на томах NFS для кластеров vSphere, состоящих из более чем 8-ми хостов
  • Поддержка платформ с высокой плотностью размещения виртуальных ПК
  • Поддержка разрешения экрана 2560×1600
  • Небольшие изменения в интерфейсе

Ну и небольшое обзорное видео работы с калькулятором:


Таги: VMware, View, Update, VDI, Storage, CBRC, Blogs, Enterprise

Справочники PowerCLI: ESXi Image Builder и Auto Deploy.


Для тех из вас, кто умеет и любит разрабатывать скрипты на PowerCLI / PowerShell для виртуальной инфраструктуры VMware vSphere, приятная новость - вышло два полезных справочика в формате Quick Reference. Первый - vSphere 5.0 Image Builder PowerCLI Quick-Reference v0.2, описывающий основные командлеты для подготовки образов хост-серверов к автоматизированному развертыванию (а также собственных сборок ESXi) средствами Image Builder:

Второй - vSphere 5.0 AutoDeploy PowerCLI Quick-Reference v0.2, описывающий основные командлеты для автоматизации процесса развертывания хост-серверов ESXi средствами Auto Deploy:


Таги: VMware, vSphere, PowerCLI, Auto Deploy, ESXi, PowerShell, Image Builder, Blogs

Вышла утилита RVTools 3.3 - новые возможности.


Rob de Veij, выпускающий бесплатную утилиту для настройки и аудита виртуальной инфраструктуры VMware vSphere (о ней мы не раз писали), выпусил обновление RVTools 3.3. Кстати, со времен выпуска версии 3.0, RVTools научилась поддерживать ESXi 5.0 и vCenter 5.0.

Новые возможности RVTools 3.3:

  • Таймаут GetWebResponse увеличен с 5 минут до 10
  • Новая вкладка с информацией о HBA-адаптерах (на картинке выше)
  • Приведена в порядок вкладка vDatastore
  • Функция отсылки уведомлений по почте RVToolsSendMail поддерживает несколько получателей через запятую
  • Информация о папке VMs and Templates показывается на вкладке vInfo
  • Несколько исправлений багов

Скачать полезную и бесплатную RVTools 3.3 можно по этой ссылке. Что можно увидеть на вкладках описано здесь.


Таги: VMware, RVTools, Update, vSphere, ESXi, Бесплатно, Blogs

Что такое и как работает VMware Pluggable Storage Architecture (PSA) в VMware vSphere.


Как знают администраторы VMware vSphere в крупных компаниях, в этой платформе виртуализации есть фреймворк, называющийся VMware Pluggable Storage Architecture (PSA), который представляет собой модульную архитектуру работы с хранилищами SAN, позволяющую использовать ПО сторонних производителей для работы с дисковыми массивами и путями.

Выглядит это следующим образом:

А так понятнее:

Как видно из второй картинки, VMware PSA - это фреймворк, работа с которым происходит в слое VMkernel, отвечающем за работу с хранилищами. Расшифруем аббревиатуры:

  • VMware NMP - Native Multipathing Plug-In. Это стандартный модуль обработки ввода-вывода хоста по нескольким путям в SAN.
  • Third-party MPP - Multipathing plug-in. Это модуль стороннего производителя для работы по нескольким путям, например, EMC Powerpath
  • VMware SATP - Storage Array Type Plug-In. Это часть NMP от VMware (подмодуль), отвечающая за SCSI-операции с дисковым массивом конкретного производителя или локальным хранилищем.
  • VMware PSP - Path Selection Plug-In. Этот подмодуль NMP отвечает за выбор физического пути в SAN по запросу ввода-вывода от виртуальной машины.
  • Third-party SATP и PSP - это подмодули сторонних производителей, которые исполняют означенные выше функции и могут быть встроены в стандартный NMP от VMware.
  • MASK_PATH - это модуль, который позволяет маскировать LUN для хоста VMware ESX/ESXi. Более подробно о работе с ним и маскировании LUN через правила написано в KB 1009449.

Из этой же картинки мы можем заключить следующее: при выполнении команды ввода-вывода от виртуальной машины, VMkernel перенаправляет этот запрос либо к MPP, либо к NMP, в зависимости от установленного ПО и обращения к конкретной модели массива, а далее он уже проходит через подуровни SATP и PSP.

Уровень SATP

Это подмодули, которые обеспечивают работу с типами дисковых массивов с хоста ESXi. В составе ПО ESXi есть стандартный набор драйверов, которые есть под все типы дисковых массивов, поддерживаемых VMware (т.е. те, что есть в списке совместимости HCL). Кроме того, есть универсальные SATP для работы с дисковыми массивами Active-active и ALUA (где LUN'ом "владеет" один Storage Processor, SP).

Каждый SATP умеет "общаться" с дисковым массивом конкретного типа, чтобы определить состояние пути к SP, активировать или деактивировать путь. После того, как NMP выбрал нужный SATP для хранилища, он передает ему следующие функции:

  • Мониторинг состояния каждого из физических путей.
  • Оповещение об изменении состояний путей
  • Выполнение действий, необходимый для восстановления пути (например failover на резервный путь для active-passive массивов)

Посмотреть список загруженных SATP-подмодулей можно командой:

esxcli nmp satp list

Уровень PSP

Path Selection Plug-In отвечает за выбор физического пути для I/O запросов. Подмодуль SATP указывает PSP, какую политику путей выставить для данного типа массива, в зависимости от режима его работы (a-a или a-p). Вы можете переназначить эту политику через vSphere Client, выбрав пункт "Manage Paths" для устройства:

Для LUN, презентуемых с массивов Active-active, как правило, выбирается политика Fixed (preferred path), для массивов Active-passive используется дефолтная политика Most Recently Used (MRU). Есть также и еще 2 политики, о которых вы можете прочитать в KB 1011340. Например, политика Fixed path with Array Preference (VMW_PSP_FIXED_AP) по умолчанию выбирается для обоих типов массивов, которые поддерживают ALUA (EMC Clariion, HP EVA).

Надо отметить, что сторонний MPP может выбирать путь не только базовыми методами, как это делает VMware PSP, но и на базе статистического интеллектуального анализа загрузки по нескольким путям, что делает, например, ПО EMC Powerpath. На практике это может означать рост производительности доступа по нескольким путям даже в несколько раз.

Работа с фреймворком PSA

Существуют 3 основных команды для работы с фреймворком PSA:

esxcli, vicfg-mpath, vicfg-mpath35

Команды vicfg-mpath и vicfg-mpath35 аналогичны, просто последняя - используется для ESX 3.5. Общий список доступных путей и их статусы с информацией об устройствах можно вывести командой:

vicfg-mpath -l

Через пакет esxcli можно управлять путями и плагинами PSA через 2 основные команды: corestorage и nmp.

Надо отметить, что некоторые команды esxcli работают в интерактивном режиме. С помощью nmp можно вывести список активных правил для различных плагинов PSA (кликабельно):

esxcli corestorage claimrule list

Есть три типа правил: обычный multipathing - MP (слева), FILTER (аппаратное ускорение включено) и VAAI, когда вы работаете с массивом с поддержкой VAAI. Правила идут в порядке возрастания, с номера 0 до 101 они зарезервированы VMware, пользователь может выбирать номера от 102 до 60 000. Подробнее о работе с правилами можно прочитать вот тут.

Правила идут парами, где file обозначает, что правило определено, а runtime - что оно загружено. Да, кстати, для тех, кто не маскировал LUN с версии 3.5. Начиная с версии 4.0, маскировать LUN нужно не через настройки в vCenter на хостах, а через объявление правил для подмодуля MASK_PATH.

Для вывода информации об имеющихся LUN и их опциях в формате PSA можно воспользоваться командой:

esxcli nmp device list

Можно использовать всю ту же vicfg-mpath -l.

Ну а для вывода информации о подмодулях SATP (типы массивов) и PSP (доступные политики путей) можно использовать команды:

esxcli nmp satp list
esxcli nmp psp list

Ну а дальше уже изучайте, как там можно глубже копать. Рекомендуемые документы:

Источник статьи: "VMware vSphere 4.1 PSA (Pluggable Storage Architecture) Understanding".


Таги: VMware, ESXi, Storage, PSA, vSphere, Enterprise, Обучение, Blogs

Документы по безопасности Citrix XenServer 5.6 - Hardening Guide.


Безопасность является одной из главных (если не самой) проблем при внедрении технологий виртуализации. Как знают пользователи VMware vSphere 4.1, у компании VMware есть основной документ для обеспечения безопасности своими силами VMware Security Hardening Guide (а есть еще продукт vGate R2 для автоматизированного обеспечения безопасности в соответствии с этим документом). Для vSphere 5.0, к сожалению, такое руководство отсутствует.

Платформа XenServer компании Citrix долгое время вообще обходилась без подобного руководства. Существуют лишь следующие документы, которые носят общий характер:

Теперь же российская компания Positive Technologies, специализирующаяся в сфере информационной безопасности, разработала для платформы Citrix XenServer 5.6 более практичный и полезный документ под названием "Citrix XenServer 5.6 Free/Advanced Hardening Guide (Public Beta)". Документ этот на русском языке.

Соответственно, пользователям Citrix XenServer его просто необходимо хотя бы просмотреть. Так как документ будет проходить бета-тестирование до 30 апреля, автор принимает комментарии и поправки по адресу: KErmakov (at) ptsecurity.ru.


Таги: Citrix, XenServer, Security, Blogs, Whitepaper

Сломавшийся Auto Start для виртуальных машин в бесплатном VMware ESXi 5.0 Update 1.


Сейчас на VMware Communities обсуждается очередной баг в бесплатном гипервизоре VMware ESXi 5.0 Update 1 (он же vSphere Hypervisor). Приведенная ниже информация касается только пользователей бесплатного ESXi и не затрагивает владельцев любого из платных изданий vSphere.

Итак, когда вы обновляете VMware ESXi 5.0 на ESXi 5.0 Update 1, вы обнаруживаете неприятную особенность: функции Auto Start для виртуальных машин больше не работают (то есть машины при старте хост-сервера не запускаются). И это несмотря на то, что настройки автоматического запуска виртуальных машин работают:

Проблема начинается с билда 623860 и, повторимся, не касается платных изданий ESXi в составе vSphere. Слухи о том, что это, ходят разные: либо это новое ограничение бесплатного ESXi, либо обычный баг. Вроде бы все в итоге склоняются, что обычный баг. Сама VMware обещает поправить это в VMware vSphere 5.0 Update 2.

Если функции автоматического запуска виртуальных машин в бесплатном ESXi так важны, то вы можете откатиться до ESXi 5.0 просто нажав при загрузке Shift+R для входа в Recovery Mode, где можно откатить Update 1:

Более подробную информацию можно получить вот в этой статье на блогах VMware.


Таги: VMware, ESXi, Bug, Bugs, vSphere, Blogs, Бесплатно

Порты для серверов VMware vSphere / ESXi / vCenter, View и других продуктов VMware.


Раньше блоггеры публиковали диаграммы портов и соединений для VMware vSphere и других продуктов по отдельности, о которых мы писали тут и тут. Для VMware vSphere 5 список портов стал настолько обширен (из-за увеличения количества компонентов), что блоггеры уже перестали рисовать картинки и диаграммы.

Напомним, что последнюю версию схемы портов для VMware vSphere 4.1 можно скачать вот тут:

Теперь же сетевым администраторам и администраторам ИБ нужно запомнить вот эту ссылку на статью: KB 1012382, где приведены порты, используемые не только VMware vSphere 5, но и другими продуктами VMware: View, SRM, Converter и пр. Там в таблице конечно мешанина, но ничего другого пока нет:

Для каждого порта приведены комментарии - зачем он нужен и когда используется. Обратите внимание, что порты для vSphere Client указаны внизу статьи.


Таги: VMware, vSphere, Ports, View, SRM, Blogs, Network

Бесплатные утилиты для VMware View 5.


Мы уже много писали о решении для виртуализации настольных ПК предприятия - VMware View 5, эти записи можно просто найти у нас по тегу View. Там же можно найти заметки о некоторых бесплатных утилитах для VMware View. Сегодня мы рассмотрим очередную порцию бесплатных программ, некоторые из которых могут оказаться вам полезными при администрировании десктопов.

1.  NetScaler VPX Express для балансировки VMware View

Это виртуальный модуль (Virtual Appliance) для Citrix Xenserver and VMware vSphere, обладающий той же самой функциональностью, что и стандартное издание NetScaler, но с ограничением 5 Мбит по полосе пропускания (есть и другие ограничения, например, число SSL-соединений). Надо отметить, что NetScaler умеет делать не только балансировку, но в данном случае он нам интересен именно как балансировщик. Ставится он вот сюда:

Кому интересно, как это работает, просим проследовать сюда.

2.  Quest Desktop Optimizer

Эта утилита от компании Quest Software имеет в своем арсенале 40 базовых оптимизаций для гостевой ОС виртуальной машины, которая становится "золотым" образом для развертываемых из него виртуальных ПК.

Все опитимизации имеют комментарии и рекомендации по тому, как эти настройки нужно выставлять. Кроме того, имеется Command Line для пакетного исполнения без GUI в шаблонах. Штука в хозяйстве полезная.

3. VMware View Portal eXtender

Эта утилита может понадобиться тем, кто хочет кастомизировать веб-портал VMware View, через который пользователи получают доступ к своим виртуальным ПК.

Тут можно настроить оповещения, ссылки, информацию о поддержке и т.п. Все это поставляется с админ-панелью.

4. Quest VDI Assessment

Опять-таки, бесплатная утилита от Quest, позволяющая провести обследование текущей инфраструктуры предприятия на предмет консолидации виртуальных ПК в инфраструктуре VMware View.

Поставляется этот продукт как виртуальный модуль для VMware vSphere или Microsoft Hyper-V. Он определяет какие пользователи подходят для Hosted VDI, какие для Offline-десктопов, а какие для терминальных решений или виртуализации приложений. Ну и, естественно, выдает рекомендации по необходимому объему ресурсов для консолидации виртуальных ПК. Бесплатна, но ключ действует 5 дней.

5. MCS ThinView

Эта утилита уже не для виртуальных десктопов VMware View, а для решения ThinApp, которое в VMware View входит. Она позволяет просматривать содержимое виртуализованных пакетов ThinApp и анализировать его компоненты (виртуальная файловая система, реестр), а также опции, заданные при его создании.

Знаете еще интересные утилиты для VMware View? Пишите в каменты.

Также читайте наши заметки о бесплатных утилитах для VMware View:


Таги: VMware, View, Utilities, Бесплатно, ThinApp, Blogs

Защита персональных данных при использовании технологий виртуализации в банках с помощью vGate R2.


Хочу обратить внимание на статью нашей с вами знакомой Марии Сидоровой о защите инфраструктур виртуализации в банках в соответствии с отраслевым стандартом СТО БР ИББС:

СТО БР ИББС: защита персональных данных при использовании технологий виртуализации в банках

Напомним, что продукт vGate R2, упоминаемый в статье, является лидером на рынке защиты виртуальных инфраструктур за счет средств автоматической настройки виртуальной среды VMware vSphere и механизмов защиты от несанкционированного доступа. Также этот продукт поддерживает новую версию платформы виртуализации VMware vSphere 5. На тему защиты персональных данных, обрабатываемых в виртуальной инфраструктуре рекомендуем прочитать вот эту нашу заметку.

Вы можете оставить свой отзыв о vGate R2, а также пожелания или замечания тут - http://www.securitycode.ru/products/sn_vmware/otzyv/

Презентации по защите виртуальных инфраструктур - http://www.slideshare.net/Virtualization_Security

Сертификаты продукта - http://www.securitycode.ru/company/licenses/certificates/#vGate


Таги: Security Code, vGate, Security, Enterprise, Blogs

Что можно сделать через VMware vCenter и ESXi Web Access?


Недавно мы писали о такой интересной вещи как Managed Object Browser (MOB), которая доступна через веб-сервер, работющий на сервере VMware vCenter (а также напрямую через веб-доступ к ESXi). А что вообще есть еще интересного на этом веб-сервере? Давайте посмотрим:

1. Если вы еще не пользовались веб-клиентом VMware vSphere Web Client в vSphere 5.0, самое время сделать это, зайдя по ссылке:

https://<имя vcenter>

Этот клиент умеет очень многое из того, что делает обычный "толстый" клиент:

2. Там же, на стартовом экране веб-сервера vCenter, вы можете нажать "Browse Datastores in the vSphere Inventory" и просмотреть хранилища, прикрепленные к хостам ESXi, прицепленным к vCenter:

3. Следующая интересная вещь - vCenter operational dashboard, компонент, который позволяет просматривать статистики по различным событиям, произошедшим в виртуальной инфраструктуре vSphere. Он доступен по ссылке:

http://<имя vCenter>/vod/index.html

Смотрите как интересно (кликабельно) - там много разых страничек:

4. Ну и на закуску - просмотр конфигурации и лог-файлов хоста ESXi через его веб-сервер (предварительно должен быть включен доступ по SSH). Зайдите по ссылке:

https://<имя ESXi>/host

Здесь можно ходить по папкам /etc, /etc/vmware и /var/log, исследуя логи хоста и его конфигурацию:


Таги: VMware, vCenter, Web Access, Web Client, vSphere, ESXi, Blogs

Красивые графики для администраторов VMware vSphere с помощью PowerCLI/PowerShell.


Многие администраторы VMware vSphere 5 управляют виртуальной инфраструктурой с помощью фреймворка PowerCLI/Powershell. Это удобно для выполнения различных операций из командной строки и вывода в файлы отчетов и настроек по хостам ESXi и виртуальным машинам.

Между тем, есть еще один важный аспект в данном процессе - неплохо бы получать графики для различных сущностей, например, визуализовать машины по загрузке процесса или памяти, сравнить хосты по загрузкам, посчитать количество машин в различных разрезах и т.п.

Этот график построил Шон, автор сайта http://www.shogan.co.uk.

Для того, чтобы начать нужно установить Microsoft Chart Controls for Microsoft .NET Framework 3.5. Шон понял, что создавать чарты на PowerCLI/Powershell - это геморрой, поэтому он написал свои функции, которые облегчают этот процесс:

Вот пример использования для построения pie-диаграммы:

Create-Chart -ChartType Pie -ChartTitle "Sean's Awesome VM Chart" -FileName seanchart3 -XAxisName "VMs" -YAxisName "MemoryMB" -ChartWidth 750 -ChartHeight 650 -DataHashTable (Create-HashTable -Cmdlet "Get-VM" -NameProperty Name -ValueProperty MemoryMB)

Вот результат:

Процесс на видео:

Дальше - к Шону за подробностями и примерами использования.


Таги: VMware, vSphere, PowerCLI, PowerShell, Blogs

Как изменить IP-адрес VMware vCenter: переподключение хостов ESXi и перенастройка Update Manager + Auto Deploy.


Иногда бывает необходимо поменять IP адрес сервера vCenter Server в продуктивной, а чаще в тестовой, среде. Это не так просто - хосты ESXi, подключенные к vCenter, переходят в состояние Disconnected. Ниже приведен способ восстановления конфигурации vCenter, хостов ESXi, Update Manager и Auto Deploy после изменения IP-адреса vCenter.

1. Поменяйте IP-адрес сервера vCenter и переприсоедините его к домену Active Directory.

2. После этого произойдут следующие вещи:

  • Хосты ESXi перейдут в статус "disconnected" - это происходит потому, что каждый хост ESXi хранит IP-адрес vCenter в конфигурационном файле vpxa.cfg
  • Перестанет работать vSphere Update Manager - по той же причине, только у него есть файл extension.xml
  • Перестанет работать vSphere Auto Deploy - у него файлик vmconfig-autodeploy.xml

3. Для переприсоединения хоста ESXi к серверу vCenter вы можете удалить его из окружения vCenter и добавить повторно через vSphere Client, но этот способ приведет к потере данных о производительности хоста, что не очень хорошо. Поэтому нужно сделать так:

  • Зайти на сервер ESXi по SSH (сначала нужно его включить)
  • Открыть файл /etc/vmware/vpxa/vpxa.cfg
  • Изменить в нем секцию <serverIP>, указав новый IP-адрес vCenter:

  • Перезапустить management agents на хосте ESXi 5 командой # /sbin/services.sh restart, либо из DCUI как показано на видео ниже:

За более подробной информацией обращайтесь к KB 1001493.

  • После всего этого перезапустите службу "VMware VirtualCenter Server" на сервере vCenter.

4. Теперь приступаем к vSphere Update Manager. Заходим на машину, где он установлен, и переходим в папку C:\Program Files (x86)\VMware\Infrastructure\Update Manager, где открываем файл extension.xml и редактируем секцию <healthUrl>, указав новый IP-адрес vCenter Server:

Теперь открываем командную строку (cmd). Переходим в папку C:\Program Files (x86)\VMware\Infrastructure\Update Manager. Там выполняем следующую команду:

vciInstallUtils.exe –vc <vc_ip> –port <vc_http_port> -U <user_name> -P <password> -S extension.xml -C . -L . -O extupdate

где <vc_ip> = новый IP vCenter Server, а <vc_http_port> = 80. Параметры <user_name> и <password> - учетная запись администратора vCenter.

Если все прошло нормально, вывод будет выглядеть подобным образом:

Далее запускаем C:\Windows\ SysWOW64\obcad32.exe на сервере Update Manager. Там переходим на вкладку "System DSN" и нажимаем кнопку Configure. Идем до конца мастера по шагам и успешно проходим тест:

Пробуем запустить службу VMware vSphere Update Manager Service и получаем ошибку:

There was an error connecting to VMware vSphere Update Manager – [vc5:443]. Fault.HostNotReacable.summary

Поэтому переходим в папку C:\Program Files (x86)\VMware\Infrastructure Update Manager и открываем файл vci-integrity.xml, где в секции <vpxdLocation> вводим новый IP-адрес vCenter.

Теперь перезапускаем VMware vSphere Update Manager Service и включаем VMware vSphere Update Manger Extension в vSphere Client. После этого все должно заработать.

Более подробная информация в KB 101322.

5. Переходим к vSphere Auto Deploy. Открываем файл:

c:\ProgramData\VMware\VMware vCenter Auto Deploy\vmconfig-autodeploy.xml

где меняем старый адрес vCenter на новый IP.

Из этой же папки, из командной строки выполняем команду:

autodeploy-register.exe -R -a <vc_ip> -p <vc_http_port> -u <user_name> -w <password> -s <setup-file-path>

параметры вбиваем те же, что и на шаге 4, за исключением последнего:

<setup-file-path>= c:\ProgramData\VMware\VMware vCenter Auto Deploy\vmconfig-autodeploy.xml

Включаем Auto Deploy Plug-in в vSphere Client. Более подробная информация в KB 2000988.


Таги: VMware, vCenter, Обучение, ESXi, vSphere, Blogs, Troubleshooting, Update Manager, Auto Deploy

Настройка работы VMware vCenter Server Virtual Appliance (vCSA) с БД Oracle.


Как вы знаете, с появлением VMware vSphere 5 в состав решения вошел также виртуальный модуль VMware vCenter Server Virtual Appliance (vCSA), который представляет собой готовую виртуальную машину с преднастроенными сервисами vCenter, работающими с интегрированной БД IBM DB2.

Однако такая конфигурация подходит лишь для небольших инсталляций (не более 5 хост-серверов ESXi и 50 виртуальных машин), поэтому в корпоративной инфраструктуре необходимо будет подключать внешнюю базу данных, например, Microsoft SQL Server или Oracle Database.

В данной заметке мы рассмотрим настройку СУБД Oracle 11g R2 x64, работающей Windows Server 2008 для использования совместно с VMware vCenter Server Virtual Appliance.

Для начала сконфигурируем Oracle и пользователя БД:

1. Откройте сессию SQL*Plus как SYSDBA:

C:`>sqlplus sys/<password> as SYSDBA

2. Создайте базу данных с помощью следующих SQL-команд:

CREATE SMALLFILE TABLESPACE “VPX” DATAFILE ‘e:/app/oracle/oradata/orcl/vpx01.dbf’ SIZE 1G AUTOEXTEND ON NEXT 10M MAXSIZE UNLIMITED LOGGING EXTENT MANAGEMENT LOCAL SEGMENT SPACE MANAGEMENT AUTO;

3. Создайте пользователя БД Oracle с необходимыми для vCenter Server привилегиями с помощью следующих команд SQL:

CREATE USER "VPXADMIN" PROFILE "DEFAULT" IDENTIFIED BY "oracle" DEFAULT TABLESPACE "VPX" ACCOUNT UNLOCK;  
grant connect to VPXADMIN;
grant resource to VPXADMIN;
grant create view to VPXADMIN;
grant create sequence to VPXADMIN;
grant create table to VPXADMIN;
grant create materialized view to VPXADMIN;
grant execute on dbms_lock to VPXADMIN; grant execute on dbms_job to VPXADMIN;
grant select on dba_tablespaces to VPXADMIN;
grant select on dba_temp_files to VPXADMIN;
grant select on dba_data_files to VPXADMIN;
grant unlimited tablespace to VPXADMIN;

Теперь приступим к настройке VMware vCenter Server Virtual Appliance:

1. Зайдите на vCenter по адресу:

https://<имя vcsa>:5480/

2. На вкладке vCenter Server перейдите в категорию Database.

3. Выберите oracle в качестве Database Type и введите информацию о БД, затем нажмите Save Settings. Обратите внимание, что в tnsnames.ora ничего добавлять не нужно, а также не надо настраивать ODBC-конфигурацию.

4. Подождите около 5 минут, пока vCSA создаст схему БД.

5. Перейдите в категорию Status и в поле Service Status должно отображаться "Running":

6. После этого уберите ненужные больше привилегии пользователя следующими командами в SQL*Plus:

revoke select on dba_tablespaces from VPXADMIN;
revoke select on dba_temp_files from VPXADMIN;
revoke select on dba_data_files from VPXADMIN;

Всего и делов.


Таги: VMware, vCenter, vCSA, Virtual Appliance, Enterprise, Blogs, vSphere

Тайм-бомба для виртуализованных приложений VMware ThinApp.


Ну тайм-бомба - это громко сказано, просто VMware так называет скрипт, который позволяет установить время "устаревания" виртуализованного пакета VMware ThinApp, то есть время, после которого приложение уже не запустится на пользовательском ПК.

VB-скрипт, который может быть скачан по этой ссылке, не имеет защиты от переустановки времени назад пользователем, однако может оказаться полезным, когда у пользователя нет таких прав на корпоративном ПК. Ну и надо учесть, что он проверяет приложение только при запуске и не действует на уже запущенный пакет.

О том, как применять подобные скрипты, рассказывает видео ниже:


Таги: VMware, ThinApp, Scripting, Blogs

Конфигурация настроек протокола PCoIP для ПК VMware View 5 из графического интерфейса.


После того, как мы описывали настройки производительности протокола PCoIP, которые могут быть использованы при доступе к виртуальным ПК VMware View 5, я подумал: "а почему никто не сделает их настройку из GUI?".

Мысль материализовалась. Некто Chuck Hisrtius разработал утилиту PCoIP Configuration Utility, которая позволяет управлять профилями настроек PCoIP (качество картинки, FPS, ограничение пропускной способности и др.) из графического интерфейса на базе профилей:

Из трея в виртуальном ПК можно переключать профили настроек (пока поддерживается только VMware View 5):

Есть также пункт "Show Session Stats", который показывает текущие параметры сессии PCoIP:

Профили, присутствующие в PCoIP Configuration Utility, потенциально можно применять при подключении для различных условий, например, на базе местоположения пользователя (корпоративная сеть предприятия или медленный интернет в командировке). Об этом мы писали тут.

Скачать PCoIP Configuration Utility можно по этой ссылке.


Таги: VMware, View, PCoIP, Бесплатно, Blogs, VDI

Где скачать ISO VMware ESXi 5.0, подготовленный для серверов HP.


VMware ESXi 5.0, кастомизированный под серверы HP BL, DL, ML и другие можно загрузить по этой ссылке:

http://vibsdepot.hp.com/

Сборка ESXi 5.0 под HP содержит следующий набор дополнительных драйверов и утилит:

  • HP Management Tools:
  • HP CIM Providers
  • HP NMI Driver
  • HP iLO Driver
  • HP CRU Driver
  • HPONCONFG Utility
  • HPBOOTCFG Utility
  • VMware IOVP Certified Device Drivers added to HP ESXi 5.0 installation images for HP device
    enablement.
  • VMware ESXi 5.0, Patch Release ESXi500-201109001

Таги: VMware, ESXi, HP, Blogs

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Kubernetes VMachines Enterprise Offtopic Broadcom Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V esxtop VKS VCF Memory VMConAWS vSAN Private AI VMmark Operations Certification NVMe AI vDefend VCDX Explore Tanzu Workstation Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint Tiering Upgrade VCAP Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge